美智库:中美应该合作监管AI
拜登政府在半导体、微电子、量子信息技术和人工智能(AI)领域限制对华投资,不断升级同中国的科技战。但在AI领域,中美两国国内及整个国际社会一直有声音呼吁中美开展合作。一方面,AI技术发展迅速、转型快、安全和伦理问题突出,需要世界技术大国引领该技术的应用,承担管控此类技术的责任;另一方面,中美都是AI领域的主要投资和研发者,双方在凝聚全球共识、制定国际规则和推进市场应用方面都有必要开展合作。10月19日,美国布鲁金斯协会技术创新研究中心的高级研究员马克·麦卡锡(Mark MacCarthy)发表题为《美国及其盟友应该AI法律和政策方面和中国接触》(The US and its allies should engage with China on AI law and policy)的文章,建议美国和其盟友在推出各自的监管框架的同时,也应该和中国接触,学习中国经验,探寻在全球层面监管AI的可能性。
马克·麦卡锡认为,中国在AI监管领域具备“先发优势”,已经在一年前就出台了监管架构。中国的优势包括:在AI部署层面建立由单一机构运行的许可制度,要求采取有效措施来提高训练数据的准确性,并将监管非法内容的责任放在AI模型部署者身上。而在这些方面,美欧仍在苦苦追寻解决方案。以下是文章内容。
尽管美国、英国和欧盟都对监管AI感到兴奋和充满活力,但中国是第一个打破常规、公布AI监管结构的国家,包括随着ChatGPT突然出现的新的生成式AI服务。在西方监管机构制定自己的政策时,与中国监管机构和专家接触,了解他们制定和实施AI法律和政策的经验,符合西方的最大利益。
2022年3月以来,中国国家互联网信息办公室(CAC,简称“网信办”)已经制定了一系列针对先进算法的监管措施,包括向政府部门提交信息的要求以及用户选择退出个性化的权利,以及对生成的图像、视频、音频和文本采用深度合成规则。2023年4月,中国国家网信办发布了《生成式AI服务管理办法(征求意见稿)》,为生成式AI的开发者和部署者提出了新规则。这是全球范围内首部直接针对生成式AI进行规制的国家层面法律文件,它在7月被修订后于2023年8月正式施行。该提案中的许多措施在关系AI伦理问题的讨论中都很熟悉,包括对AI内容的标签要求、非歧视要求以及对隐私和知识产权的保护。新的AI提案还要求那些提供生成式AI服务的人向先前建立的算法注册表提交信息。正如卡内基国际和平基金会研究员、专注于研究与中国相关的全球技术问题的中国问题专家马特·希恩(Matt Sheehan)最近在《外交政策》杂志发表的评论中所说,美国及其盟友“实际上可以从中国管理AI的方法中学到很多东西”。
虽然中国这一生成式AI服务管理办法具有约束力,但公布后的版本仍被标记为“暂行办法”,这表明它可能会被另一个迭代版本所取代。尽管如此,西方媒体承认,这一可执行的“暂行办法”使中国在AI监管领域具有“先发优势”。从那时起,网信办已经授权八家中国公司向公众提供生成式AI服务。
虽然中国在AI生成内容方面存在一些管控,但除了和网信办接触以外,西方同中国学者及其他深谙AI议题的监管人员接触,有助于缓冲这方面的政治阻力。耶鲁法学院的中国问题专家萨姆·萨克斯(Samm Sacks)最近在布鲁金斯学会的一次活动中指出,其他中国机构将积极参与中国AI监管的发展。在卡内基基金会最近的一份报告中,马特·希恩(Matt Sheehan)表示,中国科技部、中国信息通信研究院和清华大学AI国际治理研究所已经并将继续参与AI政策的制定。因此,与中国在AI法律和政策方面的任何接触都应包括这些“其他机构”。
西方政策制定者清楚认识到其中风险的同时,也可以从中国监管AI的经验中有所得。中国一直愿意学习国外的发展经验。例如,2021年11月生效的《个人信息保护法》在很大程度上借鉴了欧盟2018年的《通用数据保护条例》(GDPR)。就在上周,为了回应国际企业的担忧,中国“国家网信办”提出了一项重要建议,放宽数据跨境流动。正如马特·希恩(Matt Sheehan)所说,“愿意向对手学习可能是地缘政治中的一大优势。”如果美国及其盟友想要在国内和国际上塑造AI法律和政策,就应该学习中国经验。
为了说明美国、欧洲和英国的AI政策制定者如何从中国的经验中学习,马克·麦卡锡重点讨论了四个方向。
一是中国“网信办”规定的行政许可制度。今年夏天,包括OpenAI在内的美国AI公司一直在游说联邦政府,要求获得行政许可,以便将AI模型的开发限制在值得信赖的供应商手中。本月早些时候,微软副主席兼总裁布拉德·史密斯(Brad Smith)在参议院司法委员会听证会上作证时支持“AI许可”。今年7月,一组AI研究人员首次发表报告,列出了对可能对公共安全构成威胁的“前沿模型”进行许可要求或监管的理由。但从本质上讲,许可制度限制了实验和创新,并增加了大型、资金充足的老牌企业主导AI新领域的机会。就在上周,英国竞争与市场管理局发布了一份报告强烈建议,开源AI系统的“易获得性”,也就是新开发人员可以访问AI模型的代码并进一步开发它们,对于维持一个充满活力的竞争系统至关重要。
中国网信办却要求取得相关行政许可,为什么?部分原因在于,网信办在履行职责,确保中国信息控制系统有效运行时,默认了一种许可制度。例如,它保留了一个新闻来源的列表,这些新闻来源可以被数字媒体合法地分享。
然后,中国对AI系统能力在整个国家经济中得到扩展和使用有着和西方一样的兴趣,甚至可能有更大的兴趣,因为那些有利于老牌公司的许可制度对中国经济有害。网信办通过分配许可证,对老牌企业不偏袒,对创新型初创企业给予了鼓励。或许这反映了中国监管的一个特点,即老牌或先进企业在中国不像在美欧国家那样有能力获得监管机构的青睐。也许中国已经找到了鱼与熊掌兼得的方法。它可能已经找到了一种方法,既能获得许可制度的安全保护,又不会失去来自竞争性初创企业的创新动力。
二是中国已经做出判断,决定不对“研发和使用生成式AI技术,但尚未向中国大陆民众提供生成式AI服务”的公司实施许可制度。而西方决策者在这方面仍在努力制定政策。中国最初的规定更广泛地适用于“具有生成式AI功能的产品的研究、开发和使用,以及向公众提供服务”。换句话说,中国最初的规则涵盖了那些仅仅在进行AI模型研究和开发、远未向公众推广部署的公司。这一初步政策在管理公共安全风险的迫切需要方面具有一定的基础,因为不受控制的AI实验可能会导致危险的AI模型失控。在早期阶段实行许可制度将鼓励安全、负责任的模型开发。
但很难看出模型的开发者如何遵守安全规则,比如它们在向公众发布模型之前向用户披露信息。此外,由于国际竞争的原因,速度似乎是最重要的,而在获得AI模型研发许可的过程中,不可避免的官僚主义化的延误将阻碍创新。
在最后一组规定中,网信办改变了主意。它决定,AI许可要求应仅适用于向公众提供生成式AI服务的公司,而不适用于从事研究和开发或将其用于内部组织运营的公司。这一变化似乎表明,中国监管机构将创新和速度置于官僚程序之上。但是,如果不考虑AI的研发,网信办可能已经放弃了任何可以洞悉AI开发过程的能力。它是否有任何方法来检查开发人员或内部组织用户的“预部署”行为是否安全?根据马特·希恩(Matt Sheehan)的说法,中国一个重要的标准组织最近发布了关于如何遵守生成式AI监管的指导意见,这将使监管机构对面向公众的公司使用的模型有一些了解,因为该指导意见要求,如果一家公司“建立在基础模型之上,那么该模型必须在监管机构注册”。
三是为什么中国决定设立一个单一的AI监管机构。包括埃隆·马斯克(Elon Musk)在内的一些美国人正在推动成立一个新的监管机构,以便处理所有AI法律和政策问题。最新版本的欧盟AI法案似乎也采纳了这一观点,要求每个成员国建立一个单一的机构来处理所有AI问题。赞成这样做的人认为,集中化管理是比分散监管更能确保对AI新技术风险采取统一应对的更明智方法。但AI研究人员早就知道,AI毕竟只是一套统计程序,它的好处和风险是在技术实践应用过程中以具体的形式呈现出来。公司可以在各种各样的应用中使用生成式AI:比如,改善搜索服务,取代文案和平面设计师,撰写头条新闻,起草职位描述或绩效评估,帮助医生和行政人员应对高负荷工作。一个单一的监管机构如何有效地给予所有这些不同的AI公司“许可”,并确保它们遵守所有这些不同业务领域的规则?
出于这个原因,美国在几届政府中都将AI监管分配给了专门机构。如果AI被用于“授信”,隶属于美联储的消费者金融保护局(CFPB)将予以处理。如果AI被用于消费者欺诈或欺骗,美国联邦贸易委员会(Federal Trade Commission)应对此负责。如果雇主在招聘和晋升决策中使用AI,美国平等就业机会委员会(EEOC)将确保他们不会歧视受保护的阶层。直属于美国商务部的国家标准与技术研究院(NIST)发布了一个不具约束力的AI风险管理框架,但没有中央监管机构的作用。白宫已经从AI公司获得了监管AI风险的承诺,但尚未转向普遍授权。
美国的官方立场仍然是将监管权力下放给不同的专门机构负责。英国政府也是如此。欧盟、英国和美国的政策制定者在这个问题上很纠结,他们如果能理解为什么中国的政策制定者选择赋予单一机构对AI的全面监管权力,他们将受益良多。这也可能反映了中国重视对数字内容进行集中控制。如果是这样的话,对美欧政策制定者来说,将AI生成内容的监管置于总体上控制数字内容的同一监管机构是有意义的。
四是网信办决定要求生成式AI服务提供商采取措施,提高训练数据的准确性。在最初的提案中,网信办表示,AI内容生成服务的提供商必须能够“确保数据的真实性、准确性、客观性和多样性”。这一要求似乎注定会限制强大而有能力的AI模型的开发和部署,因为相当大比例的训练数据都是来自互联网上“不太准确的材料”。如果训练仅限于准确的数据,那么AI系统的大部分功能将会丧失。
在最后的规定中,网信办实际上退了一步。它现在只要求提供商采取“有效的措施”来“增加训练数据的真实性、准确性、客观性和多样性”。
为什么网信办放弃了使用准确培训数据的绝对要求?部分原因可能是在技术层面,因为社交媒体数据和公共图像数据库经常用于培训,即使它们已知包含一些错误。此外,如果内容输出(如音乐、书籍或电影推荐或广告定位)所需的准确度不是那么高,那么要求训练数据完全准确似乎是愚蠢的。但还有另一种看似合理的政策,中国似乎还没有考虑到。中国监管机构本可以要求AI公司在法律要求的后续应用中使用准确的数据。如果训练数据不准确,似乎不可能确保准确的输出。中国机构为什么不选择这个替代方案?
当然,美国及其盟友在判定哪些内容“非法”方面和中国存在分歧,但美国及其盟友对“非法材料”的界定范围确实更窄,聚焦儿童色情、恐怖主义材料、欺诈、诽谤、侵犯隐私等等。
但中国已经解决了这个问题,至少在最初阶段是这样。中国似乎把所有非法内容的责任都推给了向公众提供AI系统的公司。中国将这一责任分配给那些提供生成式AI服务的一方是否正确?还是应该把责任推到AI价值链的下游,部分落在训练特定应用程序中使用的基础模型的开发人员身上?当然,终端用户一旦违反法律,逃避AI系统内置的内容控制,也应该承担一些责任。中国监管机构的想法可能会为美欧对至关重要的责任划分问题的讨论提供参考。
以上这些例子似乎表明,西方政策制定者可以从与中国同行的AI政策问题的讨论中学习。但目前的地缘政治紧张局势不利于与中国监管机构就这些问题进行接触。美国及其盟友在中国言论政策上的分歧是根本性的,很难为了“求同存异”被搁置。而且,在2022年《未来网际网络宣言》(Declaration for the Future of the Internet)中,拜登政府将国际科技政策定义为数字威权主义与数字民主之间的斗争。这种框架使得美欧就技术政策问题同中国进行接触变得更加困难。
当相比之下,与中国分享AI监管的信息和方法的优势是至关重要的。中国AI监管机构在建立政策框架方面走得最远,他们实际上已经启动并开始运行,而欧盟、英国和美国仍在考虑这个问题。美欧为什么不从中国的实验中学习呢?正如萨姆·萨克斯(Samm Sacks)在最近的布鲁金斯学会活动中所说,目前中国的AI监管框架是西方AI法律和政策的“实验室、培养皿”。西方政策制定者如果与中国官员进行对话,将获得宝贵的见解,因为中国官员最了解他们做出的具体监管选择的优缺点,并可以分享导致他们做出这些选择的考虑因素。
通过正确调整治理体系中存在的巨大而非常现实的差异,欧盟、英国和美国的政策制定者可能会从中国的经验中吸取一些宝贵的教训,即在AI部署层面建立由单一机构运行的许可制度,要求采取有效措施来提高训练数据的准确性,并将监管非法内容的责任放在AI模型部署者身上。
中国似乎对与国际社会就AI问题开展合作持开放态度。今年7月,中国外交部发言人汪文斌表示,“中方愿与国际社会就AI安全治理加强沟通交流,推动达成普遍参与的国际机制,形成具有广泛共识的治理框架和标准规范。”我们不需要也不应该立即达成国际治理机制,但分享监管经验可能是探索全球共识好方法。
现在是时候开始这种接触了,而美国和欧洲的AI政策仍在形成过程中。英国将于11月1日和2日举行一场备受期待全球AI峰会。通过邀请中国参加这次国际会议,英国首相苏纳克(Rishi Sunak)迈出了与中国进行AI监管合作的第一步。在这第一步之后,美国和欧洲的政策制定者应该采取更多行动。
►►►
推荐阅读
中美交流基金会于世界青年峰会宣布成立“青年领袖奖学金”——呼吁建立中美和平伙伴关系
美国声称能应对两场战争 拒绝中国调停巴以冲突——美国外交一周观察
中美聚焦网|中美交流基金会
点击下方名片关注我
↓↓↓